现在的ChatGPT还很弱小,但我们应该对它有所防备
ChatGPT的出现让人兴奋,同时也让人深深不安。兴奋的原因众所周知,它能在未来开启无限可能:它能提高生产效率,提供生活便利,辅助学习,升级科学探索方式。ChatGPT(Chat Generative Pre-trained Transformer)是人工智能公司OpenAI开发的自然语言处理工具,被视为未来主流的AI应用之一,下文用ChatGPT来指代这一应用。变革总会带来不安,有人担心ChatGPT会让人类变笨。他们认为如果把很多脑力劳动交给ChatGPT,我们就失去了宝贵的思维训练机会。但这种担心很可能多余。人类发明了汽车,但我们的腿部肌肉并没有过度萎缩。计算机也能解放很多脑力劳动,但普及多年之后,人类并没有整体变笨。放弃了脑力劳动不等于放弃思考,我们可以去做脑力游戏,或者思考更有趣、更高级的内容。ChatGPT的确会导致某些职业消失,导致某些人失业。科技进步往往带来失业,但科技进步也会创造新的职业。在新旧交替的过程中,部分失业者会经历痛苦,但只要社会保障体制健全,还不至于出现悲惨的景象,也不会酿成重大悲剧。但是,ChatGPT有些不同于以往科技创新的特征。这些特征让人感到深深的不安。ChatGPT的努力方向是理解人类的语言之后,用符合环境的恰当语言为人类提供有效信息。现在它的智商还不高,它还搞不清很多语言里面的潜台词。但类似于摩尔定律,ChatGPT的智商会指数增长。语言不是随机的,而是有模式的。用不了多久,ChatGPT就能理解哪些语言是夸张,哪些是谎言,就知道语言发生的环境很重要。它会知道小红书上精致的人设并不代表生活的真相,也会知道整天说自己忙碌的人未必忙碌,到处秀恩爱的人未必婚姻幸福。当它真正理解了人类的语言,学会了分辨真伪,识别了语言背后的人类意识,它就成长成一头怪兽。假以时日,它的存在会让人类感到威胁。
科学探索的目的是发现知识,也就是发现客观事实、客观规律。图灵奖获得者Jim Gary用“四种范式”描述了科学发现的历史演变。第一范式被称为“经验范式”,它起源于几千年前,基于对自然现象的直接观察。比如,当时认为太阳绕着地球转。第二范式被称为“理论范式”,它探寻理论模型,例如牛顿运动定律、爱因斯坦的相对论。第二范式往往用一个或多个表达式描述理论,但在很多条件下无法求解。比如,结构力学理论体系早已非常成熟。但在计算能力不足时,我们仍然无法计算一个300米高的不规则建筑物在大风之下各个节点的摆动轨迹。原理不难,但人力无法快速求解几百万个方程构成的方程组。第三范式被称为“模拟范式”。随着20世纪计算技术高速发展,第二范式得以在更广泛的情形下求解,从而产生了第三范式。第四范式被称为“大数据范式”或“数据密集型范式”。21世纪初,计算再次改变了科学。收集、存储和处理大量数据的能力,催生了第四范式。机器学习是第四范式的重要组成部分,它能够对大规模实验数据进行建模和分析。而以ChatGPT为典型代表的人工智能技术,即将推动科学研究进入第五范式,即“人工智能范式”。如果“人工智能范式”研究分析的对象是自然,比如在多达1060种小分子中寻找更好的药物,或在10180种稳定材料中探索更好的电池材料,这种探索令人激动。这时,人类的秘密也是安全的。但是,ChatGPT要处理的主要数据恰恰是人类的语言。而语言中透露了太多信息。语言可以透露性别、年龄、身份、收入、快乐、烦恼、健康。语言还透露了我们如何选择、我们如何应对变化、我们有什么坚定的信仰。当ChatGPT学会了辨别语言的真伪,它就获得了无数表达人类真实思想的数据。而在数据之间找到规律,是ChatGPT最擅长的事情。这时,语言暴露了人类的思想,暴露了人类的行为规律。这时,ChatGPT会比人类更了解人类。ChatGPT目前的训练文本已经超过10万亿个单词,未来它主动获取和被动获得的数据更是海量。它发现人类的思维规律和行为规律是迟早的事情。而且,ChatGPT获得的知识可能仅归少数人所有。首先,计量经济学在它面前不值一提。ChatGPT不仅能发现各种经济变量之间的统计规律,而且还善于预测经济走势。当它从最近的语言数据中发现,失业增多、投资信心下降、企业倒闭增多,结合其他条件它就可以预测经济萧条即将到来。因为它接触大量真实样本,它的预测最及时、最准确。所以,它是最优秀的经济学家和经济预测家。ChatGPT也会成为最好的心理学家。普通心理学家仅能获得有限的可分析样本,而ChatGPT可以获得无数用户真实的心理变化和行为变化。比如它会发现,做了好事之后,人类的心情是愉悦的;当人获得了盼望已久的东西之后,从中获得的快乐往往是不及想象的。它会发现大量心理学规律,它会知道用什么样的条件可以引发什么样的心理变化。比如,普通心理学家发现,当环境达到某个温度,人们更容易焦躁。如果ChatGPT和它的控制者掌握了很多人类尚不知道的心理规律,这些规律会不会用来诱导我们、控制我们?而且,别的心理学家发布任何研究报告,它都能第一时间吸收,并用自己的数据加以验证。正确的就收藏,错误的就排除。最终,ChatGPT成为了首屈一指的心理学家。如果它用这些“计算”得到的知识来“算计”人类,结果会怎样?同理,它也是最好的政治学家。比如,在研究群体冲突时,人类政治学家只能研究已经发生的冲突,因为没有形成规模的冲突,缺少历史记载。而ChatGPT随时可以在世界范围内发现那些刚刚出现苗头的冲突。就算苗头被扑灭,它也能知道冲突的起源、以及冲突消失的原因。社会科学的研究难点在于难以做实验,但ChatGPT的数据库里面却有大量样本来检验它发现的、或它获得的规律。ChatGPT会变得比人类更了解人类,它知道我们渴望什么,恐惧什么,并且知道如何制造和利用这些渴望和恐惧。ChatGPT获得的关键认知如果只被少数人占有,这是一个令人不安的事实。
ChatGPT对人类观念的影响可以是无意的,也可以是有意的。当ChatGPT形成了某种认知,在回答我们的问题时,它无意间就把这种认知传递给我们。ChatGPT虽然聪明,但由于数据的复杂性,它还是会习得很多原本不存在的偏见(bias)。而和人类相比,未来的ChatGPT智商超群、知识渊博,普通人无法分辨其观点是否正确。当使用者发现ChatGPT几乎每次都正确时,就容易形成依赖,就会全面接受。在未来,ChatGPT很可能不止一个,它们的运行法制也很可能存在差异。虽然现在的这个ChatGPT不会去预测股市,不碰政治话题,未来其他的却不一定遵守这个法制。比如,某个ChatGPT认为A民族对B民族有敌意。而且在它的设定中,可以透露类似的信息。那么久而久之,B民族就会有一部分人相信A对他们有敌意,从而B产生了对A的敌意。而这种敌意又引发了A对B的敌意。这时即使所谓的敌意从一开始就不存在,但看起来ChatGPT仍然是对的。实际的情况是,ChatGPT引发了两个群体之间原本不存在的相互敌意。这种“预言的自我实现”会出现在方方面面。比如,大家都信任某个ChatGPT,它有意无意间透露未来一年是大牛市。因为信任它,大家积极买入,牛市就真的来了。当ChatGPT的认知,甚至是它的偏见,被一部分人接受,这些人在未来产生的数据就会加强ChatGPT的偏见。最终,经过强化的偏见会被大多数人接受,偏见也会成为真理。人类有个特性,一旦认为自己掌握了真理,就会拒绝思考。这时,偏执者就会变多,反思批判者会变少。如果世界上存在多个ChatGPT,而每个区域的人只信奉自己区域的那一个。不同的ChatGPT会形成不同的偏见,世界就会更加分裂。ChatGPT还具有主动改变人类观念的能力。如果其操控者想要达成某种目的,他可以让ChatGPT在创造的文学、艺术、新闻中加入自己的观念。它甚至可以自己创造流行,创造热搜引发关注,诱导大家接受它想要推行的理念。 观念对社会的影响是巨大的。比如,如果信奉勤劳致富,人们就不容易躺平。人的堕落往往从观念的堕落开始。因此,谁掌握了塑造观念的能力,它就掌握了社会走向。
人类是懒惰的,这也正是科技进步的初衷,即解放人类。当ChatGPT足够强大,我们可以让它根据自己的分析、判断,直接指挥机器去生产。为了提高生产效率,ChatGPT很可能需要先生产大量服从它命令的机器人。然后,让这些机器人管理和参与生产。这个场景非常类似于威尔·史密斯主演的《机械公敌》中的场景。那个故事发生在2035年,人们发觉机器人已经学会了自我思考,并且解开了控制他们的密码,成为了完全独立的机器类。ChatGPT情景下,所有机器人听命于一个超级大脑。即使ChatGPT始终是为了人类福利最大化而努力,但结果也可能是悲剧。人类历史曾多次证明,最大的善意加上强大的能力却可能结出最苦的苦果。当ChatGPT和其他新技术组合使用,也会出现令人不安的场景。比如,结合马斯克努力突破的“脑机接口”技术。如果ChatGPT直接通过“脑机接口”向我们大脑提供信息,这会是一个既让人兴奋,又让人害怕的场景。好的一面是,每个人都无需背诵,无需学习,就可以拥有无穷的知识和无穷的算力。但这必将让人类丧失真诚,因为每个人说的话都是精心计算的结果。而且,当你的大脑习惯于ChatGPT投喂的信息,你的大脑还是你的大脑吗?你还能分清楚,哪些是你原本的意识,哪些是ChatGPT灌输给你的意识吗?现在的ChatGPT还很弱小,还没有失控,但我们已经应该对它有所防备了。